home *** CD-ROM | disk | FTP | other *** search
/ Chip 2007 January, February, March & April / Chip-Cover-CD-2007-02.iso / Pakiet bezpieczenstwa / mini Pentoo LiveCD 2006.1 / mpentoo-2006.1.iso / livecd.squashfs / usr / include / linux / byteorder / swab.h < prev    next >
C/C++ Source or Header  |  2005-10-13  |  5KB  |  194 lines

  1. #ifndef _LINUX_BYTEORDER_SWAB_H
  2. #define _LINUX_BYTEORDER_SWAB_H
  3.  
  4. /*
  5.  * linux/byteorder/swab.h
  6.  * Byte-swapping, independently from CPU endianness
  7.  *    swabXX[ps]?(foo)
  8.  *
  9.  * Francois-Rene Rideau <fare@tunes.org> 19971205
  10.  *    separated swab functions from cpu_to_XX,
  11.  *    to clean up support for bizarre-endian architectures.
  12.  *
  13.  * See asm-i386/byteorder.h and suches for examples of how to provide
  14.  * architecture-dependent optimized versions
  15.  *
  16.  */
  17.  
  18. #define __attribute_const__    __attribute__((__const__))
  19. #include <linux/compiler.h>
  20.  
  21. /* casts are necessary for constants, because we never know how for sure
  22.  * how U/UL/ULL map to __u16, __u32, __u64. At least not in a portable way.
  23.  */
  24. #define ___swab16(x) \
  25. ({ \
  26.     __u16 __x = (x); \
  27.     ((__u16)( \
  28.         (((__u16)(__x) & (__u16)0x00ffU) << 8) | \
  29.         (((__u16)(__x) & (__u16)0xff00U) >> 8) )); \
  30. })
  31.  
  32. #define ___swab32(x) \
  33. ({ \
  34.     __u32 __x = (x); \
  35.     ((__u32)( \
  36.         (((__u32)(__x) & (__u32)0x000000ffUL) << 24) | \
  37.         (((__u32)(__x) & (__u32)0x0000ff00UL) <<  8) | \
  38.         (((__u32)(__x) & (__u32)0x00ff0000UL) >>  8) | \
  39.         (((__u32)(__x) & (__u32)0xff000000UL) >> 24) )); \
  40. })
  41.  
  42. #define ___swab64(x) \
  43. ({ \
  44.     __u64 __x = (x); \
  45.     ((__u64)( \
  46.         (__u64)(((__u64)(__x) & (__u64)0x00000000000000ffULL) << 56) | \
  47.         (__u64)(((__u64)(__x) & (__u64)0x000000000000ff00ULL) << 40) | \
  48.         (__u64)(((__u64)(__x) & (__u64)0x0000000000ff0000ULL) << 24) | \
  49.         (__u64)(((__u64)(__x) & (__u64)0x00000000ff000000ULL) <<  8) | \
  50.             (__u64)(((__u64)(__x) & (__u64)0x000000ff00000000ULL) >>  8) | \
  51.         (__u64)(((__u64)(__x) & (__u64)0x0000ff0000000000ULL) >> 24) | \
  52.         (__u64)(((__u64)(__x) & (__u64)0x00ff000000000000ULL) >> 40) | \
  53.         (__u64)(((__u64)(__x) & (__u64)0xff00000000000000ULL) >> 56) )); \
  54. })
  55.  
  56. #define ___constant_swab16(x) \
  57.     ((__u16)( \
  58.         (((__u16)(x) & (__u16)0x00ffU) << 8) | \
  59.         (((__u16)(x) & (__u16)0xff00U) >> 8) ))
  60. #define ___constant_swab32(x) \
  61.     ((__u32)( \
  62.         (((__u32)(x) & (__u32)0x000000ffUL) << 24) | \
  63.         (((__u32)(x) & (__u32)0x0000ff00UL) <<  8) | \
  64.         (((__u32)(x) & (__u32)0x00ff0000UL) >>  8) | \
  65.         (((__u32)(x) & (__u32)0xff000000UL) >> 24) ))
  66. #define ___constant_swab64(x) \
  67.     ((__u64)( \
  68.         (__u64)(((__u64)(x) & (__u64)0x00000000000000ffULL) << 56) | \
  69.         (__u64)(((__u64)(x) & (__u64)0x000000000000ff00ULL) << 40) | \
  70.         (__u64)(((__u64)(x) & (__u64)0x0000000000ff0000ULL) << 24) | \
  71.         (__u64)(((__u64)(x) & (__u64)0x00000000ff000000ULL) <<  8) | \
  72.             (__u64)(((__u64)(x) & (__u64)0x000000ff00000000ULL) >>  8) | \
  73.         (__u64)(((__u64)(x) & (__u64)0x0000ff0000000000ULL) >> 24) | \
  74.         (__u64)(((__u64)(x) & (__u64)0x00ff000000000000ULL) >> 40) | \
  75.         (__u64)(((__u64)(x) & (__u64)0xff00000000000000ULL) >> 56) ))
  76.  
  77. /*
  78.  * provide defaults when no architecture-specific optimization is detected
  79.  */
  80. #ifndef __arch__swab16
  81. #  define __arch__swab16(x) ({ __u16 __tmp = (x) ; ___swab16(__tmp); })
  82. #endif
  83. #ifndef __arch__swab32
  84. #  define __arch__swab32(x) ({ __u32 __tmp = (x) ; ___swab32(__tmp); })
  85. #endif
  86. #ifndef __arch__swab64
  87. #  define __arch__swab64(x) ({ __u64 __tmp = (x) ; ___swab64(__tmp); })
  88. #endif
  89.  
  90. #ifndef __arch__swab16p
  91. #  define __arch__swab16p(x) __arch__swab16(*(x))
  92. #endif
  93. #ifndef __arch__swab32p
  94. #  define __arch__swab32p(x) __arch__swab32(*(x))
  95. #endif
  96. #ifndef __arch__swab64p
  97. #  define __arch__swab64p(x) __arch__swab64(*(x))
  98. #endif
  99.  
  100. #ifndef __arch__swab16s
  101. #  define __arch__swab16s(x) do { *(x) = __arch__swab16p((x)); } while (0)
  102. #endif
  103. #ifndef __arch__swab32s
  104. #  define __arch__swab32s(x) do { *(x) = __arch__swab32p((x)); } while (0)
  105. #endif
  106. #ifndef __arch__swab64s
  107. #  define __arch__swab64s(x) do { *(x) = __arch__swab64p((x)); } while (0)
  108. #endif
  109.  
  110.  
  111. /*
  112.  * Allow constant folding
  113.  */
  114. #if defined(__GNUC__) && (__GNUC__ >= 2) && defined(__OPTIMIZE__)
  115. #  define __swab16(x) \
  116. (__builtin_constant_p((__u16)(x)) ? \
  117.  ___swab16((x)) : \
  118.  __fswab16((x)))
  119. #  define __swab32(x) \
  120. (__builtin_constant_p((__u32)(x)) ? \
  121.  ___swab32((x)) : \
  122.  __fswab32((x)))
  123. #  define __swab64(x) \
  124. (__builtin_constant_p((__u64)(x)) ? \
  125.  ___swab64((x)) : \
  126.  __fswab64((x)))
  127. #else
  128. #  define __swab16(x) __fswab16(x)
  129. #  define __swab32(x) __fswab32(x)
  130. #  define __swab64(x) __fswab64(x)
  131. #endif /* OPTIMIZE */
  132.  
  133.  
  134. static __inline__ __attribute_const__ __u16 __fswab16(__u16 x)
  135. {
  136.     return __arch__swab16(x);
  137. }
  138. static __inline__ __u16 __swab16p(const __u16 *x)
  139. {
  140.     return __arch__swab16p(x);
  141. }
  142. static __inline__ void __swab16s(__u16 *addr)
  143. {
  144.     __arch__swab16s(addr);
  145. }
  146.  
  147. static __inline__ __attribute_const__ __u32 __fswab32(__u32 x)
  148. {
  149.     return __arch__swab32(x);
  150. }
  151. static __inline__ __u32 __swab32p(const __u32 *x)
  152. {
  153.     return __arch__swab32p(x);
  154. }
  155. static __inline__ void __swab32s(__u32 *addr)
  156. {
  157.     __arch__swab32s(addr);
  158. }
  159.  
  160. #ifdef __BYTEORDER_HAS_U64__
  161. static __inline__ __attribute_const__ __u64 __fswab64(__u64 x)
  162. {
  163. #  ifdef __SWAB_64_THRU_32__
  164.     __u32 h = x >> 32;
  165.         __u32 l = x & ((1ULL<<32)-1);
  166.         return (((__u64)__swab32(l)) << 32) | ((__u64)(__swab32(h)));
  167. #  else
  168.     return __arch__swab64(x);
  169. #  endif
  170. }
  171. static __inline__ __u64 __swab64p(const __u64 *x)
  172. {
  173.     return __arch__swab64p(x);
  174. }
  175. static __inline__ void __swab64s(__u64 *addr)
  176. {
  177.     __arch__swab64s(addr);
  178. }
  179. #endif /* __BYTEORDER_HAS_U64__ */
  180.  
  181. #if defined(__KERNEL__)
  182. #define swab16 __swab16
  183. #define swab32 __swab32
  184. #define swab64 __swab64
  185. #define swab16p __swab16p
  186. #define swab32p __swab32p
  187. #define swab64p __swab64p
  188. #define swab16s __swab16s
  189. #define swab32s __swab32s
  190. #define swab64s __swab64s
  191. #endif
  192.  
  193. #endif /* _LINUX_BYTEORDER_SWAB_H */
  194.